AI资讯新闻榜单内容搜索-LLM

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: LLM
用RLHF 2%的算力让LLM停止有害输出,字节提出LLM遗忘学习

用RLHF 2%的算力让LLM停止有害输出,字节提出LLM遗忘学习

用RLHF 2%的算力让LLM停止有害输出,字节提出LLM遗忘学习

随着大型语言模型(LLM)的发展,从业者面临更多挑战。如何避免 LLM 产生有害回复?如何快速删除训练数据中的版权保护内容?如何减少 LLM 幻觉(hallucinations,即错误事实)? 如何在数据政策更改后快速迭代 LLM?这些问题在人工智能法律和道德的合规要求日益成熟的大趋势下,对于 LLM 的安全可信部署至关重要。

来自主题: AI资讯
7041 点击    2023-12-13 15:35
微调都不要了?3个样本、1个提示搞定LLM对齐,提示工程师:全都回来了

微调都不要了?3个样本、1个提示搞定LLM对齐,提示工程师:全都回来了

微调都不要了?3个样本、1个提示搞定LLM对齐,提示工程师:全都回来了

大模型的效果好不好,有时候对齐调优很关键。但近来很多研究开始探索无微调的方法,艾伦人工智能研究所和华盛顿大学的研究者用「免调优」对齐新方法超越了使用监督调优(SFT)和人类反馈强化学习(RLHF)的 LLM 性能。

来自主题: AI资讯
5842 点击    2023-12-06 15:17
用上这个工具包,大模型推理性能加速达40倍

用上这个工具包,大模型推理性能加速达40倍

用上这个工具包,大模型推理性能加速达40倍

只需不到9行代码,就能在CPU上实现出色的LLM推理性能。英特尔® Extension for Transformer创新工具包中的LLM Runtime为诸多模型显著降低时延,且首个token和下一个token的推理速度分别提升多达40倍和2.68倍,还能满足更多场景应用需求。

来自主题: AI技术研报
3762 点击    2023-11-30 19:10
BPO:灵活的 Prompt 对齐优化技术

BPO:灵活的 Prompt 对齐优化技术

BPO:灵活的 Prompt 对齐优化技术

并非所有人都熟知如何与 LLM 进行高效交流。 一种方案是,人向模型对齐。于是有了 「Prompt工程师」这一岗位,专门撰写适配 LLM 的 Prompt,从而让模型能够更好地生成内容。

来自主题: AI资讯
5063 点击    2023-11-20 14:00
千亿美元AI Agent赛道,如何重构知识工作?

千亿美元AI Agent赛道,如何重构知识工作?

千亿美元AI Agent赛道,如何重构知识工作?

Agent 的思路为我们带来了 Software 2.0 的图景:LLM 作为推理引擎能力不断增强,AI Agent 框架为其提供结构化思考的方法,软件生产进入“3D 打印”时代

来自主题: AI技术研报
6129 点击    2023-10-15 20:28
功能超全的AI Agents开源库来了,能写小说,还能当导购、销售

功能超全的AI Agents开源库来了,能写小说,还能当导购、销售

功能超全的AI Agents开源库来了,能写小说,还能当导购、销售

为了解决AutoGPT一旦运行起来就不受控制的痛点,并且调优 LLM Agent 的过程更简单更系统化,波形智能联合苏黎世联邦理工大学和浙江大学,开发了名为 Agents 的开源智能体框架。

来自主题: AI技术研报
21569 点击    2023-09-22 09:51
写Prompt要先解开语言模型的黑盒子!通俗科普揭开LLM能力的面纱

写Prompt要先解开语言模型的黑盒子!通俗科普揭开LLM能力的面纱

写Prompt要先解开语言模型的黑盒子!通俗科普揭开LLM能力的面纱

本文将对 LLM 的操作方式进行分类,以明确其边界,目标是以一种非专业人士可以理解的方式来解释 LLM 的现状,为Prompt初学的设计者提供简单的理论支撑。

来自主题: AI技术研报
3012 点击    2023-09-06 15:56